通过分类/回归从连续数据流学习在许多域中是普遍的。在保护数据所有者的私人信息的同时适应不断发展的数据特征(概念漂移)是一个开放的挑战。我们在两个区别的功能上向这个问题提供了一个差别的私有集合解决方案:它允许\ textit {unbounded} leeleble更新,以处理固定隐私预算下的可能永远不会结束的数据流,它是\ textit {modelagnostic},因为它将任何预先训练的差异私有分类/回归模型作为黑盒。我们的方法优于现实世界和模拟数据集的竞争对手,以不同的隐私设置,概念漂移和数据分布。
translated by 谷歌翻译
群集文本是自然语言处理领域的一个重要问题。虽然存在基于在上下文或非上下文向量空间表示的顶部的传统聚类技术的群集文本的技术,但是它仍然是可能对这些技术的性能和实现的各种改进的普遍存在的研究领域。本文讨论了使用注意机制群集文本的新技术。最近,注意机制在各种NLP任务中得到了高效。本文扩展了集群空间中注意机制的思想,并在整个新的研究领域揭示了一些光线
translated by 谷歌翻译